SEO中經常會說到死鏈,幾乎每一個網站都會有死鏈的存在,大量的死鏈對網站以及網站的優化會有很大的影響,那么,在網站優化中,死鏈會對網站有什么影響并且我們應該如何處理這些死鏈呢?下面,將給出大家最正確的處理死鏈辦法。 許多死鏈對搜索引擎來講,有什么影響? 1、簡直許多站都防止不了存在死鏈接,但死鏈率過高,會影響搜索引擎對網站的評分。 2、搜索引擎對每個網站每天抓取的頻次是限額的,若網站存在許多死鏈,會糟蹋掉抓取配額并影響正常頁面的抓取。 3、過多死鏈對網站用戶來講也是體會欠好的體現。 呈現了死鏈,該怎么去處理 1、批改過錯頁面 抓取反常中的許多過錯頁面是由于程序員粗心或許咱們程序問題導致的,本應該是正常頁面,由于失誤導致無法訪問,關于此類頁面,第一時間進行批改。 2、提交死鏈接 但必定許多過錯頁面是本不應該存在的,那么咱們要想方法獲取此類頁面URL,獲取方法主要有三種: (1) 百度站長東西--抓取反常--找不到的頁面--仿制數據 [批改:此處死鏈不需咱們提交了,百度站長東西主動提交死鏈] (2) 管理員在刪去頁面的時分手動或許程序主動保存被刪頁面URL (3) 運用相關爬蟲軟件,爬取整站獲取死鏈,如Xenu 。 然后將上述數據合并并刪去重復項(excel表格中能完成刪重,wps表格更簡單操作),然后再仿制一切URL經過HTTP狀況批量查詢東西查詢下[這個不錯pl.soshoulu.com/webspeed.aspx],剔除去非404回來碼頁面。 然后收拾上面處理好的數據粘貼到網站根目錄中的一個文檔中,再把文檔地址提交到 百度站長東西--網頁抓取--死鏈提交--增加新數據--填寫死鏈文件地址。 3、在robots中屏蔽抓取 若許多的過錯URL存在必定的規矩,能夠在robots文件中寫一個規矩制止蜘蛛程序抓取此類鏈接,但條件必定要照料好正常頁面,防止屏蔽規矩誤傷正常頁面,比方你的網站全部是靜態URL,那么假如過錯鏈接中含有?的話,規矩寫成Disallow:/*?*,假如過錯鏈接中有/id...html 的話,規矩寫成Disallow:/*...* 。 robots文件增加完規矩后,必定要去百度站長的 robots東西 進行校驗,將指定的過錯頁面放進去,看看是否封禁成功,再把正常的頁面放進去看看是否被誤封。 SEO中的這些死鏈往往都會直接影響到網站的優化水平以及進度,為了能夠使網站能夠更加快速的上排名,處理這些死鏈就成為我們日常工作中必須認真對待的事情,以上這些處理死鏈的辦法,都是經過我公司技術人員使用之后總結出來的,希望能夠更好的幫助到大家。 |